7 research outputs found

    Generating Test Cases from Real Field Data to Ensure C2X Interoperability

    Get PDF
    Der Beitrag beschreibt ein Vorgehen um V2X Nachrichten für die automatisierte Erstellung von funktionalen Testfällen zu nutzen

    Konzept und Implementierung eines Standard-basierten Webservices zur Einwilligungserstellung für ein zentrales Einwilligungsmanagement

    Get PDF
    Durch die immer härteren Anforderungen an Wirtschaftlichkeit und Qualität ihrer angebotenen Leistungen kommt es in der Medizin zur immer engeren Zusammenarbeit zwischen den Leistungserbringern. Das Universitätsklinikum Heidelberg und die IntercomponentWare AG haben daher ein gemeinsames Projekt ins Leben gerufen dessen Ziel die Entwicklung eines intersektoralen Informationssystems (ISIS) ist. ISIS soll den Austausch versorgungsrelevanter, medizinischer Daten ermöglichen. Patienten müssen der Teilnahme an ISIS und dem Austausch sowie der Verarbeitung ihrer Daten mit den einzelnen an ISIS teilnehmenden Einrichtungen aufgrund der rechtlichen Gegebenheiten in Deutschland explizit zustimmen. Das Management der Einwilligungserklärungen wurde bisher durch Produkte der Industrie nicht zufrieden stellend gelöst. Um das Einwilligungsmanagement befriedigend zu lösen wurde am Universitätsklinikum Heidelberg ein Konzept für ein zentrales Einwilligungsmanagement für ISIS entwickelt

    Mechanismen zur automatisierten Qualitätssicherung und Validierung der Daten in medizinischen Registern

    Get PDF
    Seltene Erkrankungen sind aufgrund der geringen Fallzahlen eine Herausforderung für die klinische Forschung. Register stellen eines der Instrumente zur systematischen Dokumentation von Verläufen von seltenen Erkrankungen dar. Ihre Aussagekraft hängt stark von der Qualität der Daten ab und somit von Mechanismen, welche die Qualität absichern sollen. Für einen Verbund aus drei Registern (CERTAIN, CERTAIN-LI und KRhOKo) sollten die Maßnahmen zur Sicherung die Datenqualität auf der Basis von automatischen Mechanismen verbessert werden. Hierfür wurde ein allgemeines Vorgehen zur Verbesserung der Datenqualität auf Basis der Qualitätsindikatoren (QI) der TMF-Leitlinie zum adaptiven Management von Datenqualität in Kohortenstudien und Registern entwickelt. Dieses Vorgehen bündelt die 51 QI der Leitlinie in vier QI-Kategorien mit unterschiedlichen Ansatzpunkten zur Verbesserung der Datenqualität: Registerplanung, automatische Validierung, Report und Datenverifizierung. Anhand des allgemeinen Vorgehens kann eine Gewichtung der QI für die Berechnung des Gesamtscores der TMF-Leitlinie erfolgen. Diese stützt sich auf eine initial durchzuführende Analyse der QI der TMF-Leitlinie im Hinblick auf die Kriterien Anwendbarkeit, Implementierbarkeit und Aussagekraft. Auf Basis des Ergebnisses der QI-Analyse verbleiben nur die für das jeweilige Register relevanten QI, für die über eine Priorisierung der QI innerhalb der identifizierten QI-Kategorien die Gewichte bestimmt werden können. Das allgemeine Vorgehen wurde für die drei genannten Register vollständig für alle QI der Leitlinie durchgeführt und die Ergebnisse der QI-Analyse, der Priorisierung der QI und der Zuweisung der Gewichte wurden detailliert dargestellt. Die QI-Analyse umfasst alle QI der TMF-Leitlinie und bietet eine detaillierte Betrachtung der QI. Aus diesen Ergebnissen wurde eine QI-Empfehlung entwickelt, die das entwickelte Vorgehen allgemein für elektronische Register vereinfacht und eine beispielhafte Priorisierung der QI bereitstellt. Auf Basis der QI-Analyse für die drei Register wurden Software-Komponenten zur Verbesserung der Datenqualität in Form von generischen Java-Modulen für die QI der Kategorie „automatische Validierung“ entwickelt, diese in die drei Register eingefügt und als Teil der Maßnahmen zur Sicherung der Datenqualität während der Dateneingabe genutzt. Die hierfür entwickelten Konzepte und Implementierungen wurden allgemein gehalten, so dass eine Übertragbarkeit der Konzepte und Java-Module auf andere Register gegeben ist. Die Effektivität dieser neuen Software-Komponenten konnte durch die umfangreiche Auswertung der Datenqualität des Datenbestandes des CERTAIN-Registers im Rahmen dieser Dissertation bestätigt werden. Somit konnte hier ein allgemeines Vorgehen zur Verbesserung der Datenqualität in medizinischen Registern durch automatisierte Mechanismen sowie ein Beispiel einer konkreten Umsetzung dieses Vorgehens und der Mechanismen dargestellt werden. Die QI-Empfehlung und die Ergebnisse der QI-Analyse für die drei Register stehen für andere zur Verbesserung ihrer Datenqualität als Basis zur Verfügung. Gleiches gilt für die Konzepte der entwickelten Software-Komponenten

    Architecture of a consent management suite and integration into IHE-based regional health information networks

    Get PDF
    <p>Abstract</p> <p>Background</p> <p>The University Hospital Heidelberg is implementing a Regional Health Information Network (RHIN) in the Rhine-Neckar-Region in order to establish a shared-care environment, which is based on established Health IT standards and in particular Integrating the Healthcare Enterprise (IHE). Similar to all other Electronic Health Record (EHR) and Personal Health Record (PHR) approaches the chosen Personal Electronic Health Record (PEHR) architecture relies on the patient's consent in order to share documents and medical data with other care delivery organizations, with the additional requirement that the German legislation explicitly demands a patients' opt-in and does not allow opt-out solutions. This creates two issues: firstly the current IHE consent profile does not address this approach properly and secondly none of the employed intra- and inter-institutional information systems, like almost all systems on the market, offers consent management solutions at all. Hence, the objective of our work is to develop and introduce an extensible architecture for creating, managing and querying patient consents in an IHE-based environment.</p> <p>Methods</p> <p>Based on the features offered by the IHE profile Basic Patient Privacy Consent (BPPC) and literature, the functionalities and components to meet the requirements of a centralized opt-in consent management solution compliant with German legislation have been analyzed. Two services have been developed and integrated into the Heidelberg PEHR.</p> <p>Results</p> <p>The standard-based Consent Management Suite consists of two services. The Consent Management Service is able to receive and store consent documents. It can receive queries concerning a dedicated patient consent, process it and return an answer. It represents a centralized policy enforcement point. The Consent Creator Service allows patients to create their consents electronically. Interfaces to a Master Patient Index (MPI) and a provider index allow to dynamically generate XACML-based policies which are stored in a CDA document to be transferred to the first service. Three workflows have to be considered to integrate the suite into the PEHR: recording the consent, publishing documents and viewing documents.</p> <p>Conclusions</p> <p>Our approach solves the consent issue when using IHE profiles for regional health information networks. It is highly interoperable due to the use of international standards and can hence be used in any other region to leverage consent issues and substantially promote the use of IHE for regional health information networks in general.</p

    Influence of Ocean Acidification on a Natural Winter-to-Summer Plankton Succession : First Insights from a Long-Term Mesocosm Study Draw Attention to Periods of Low Nutrient Concentrations

    Get PDF
    Every year, the oceans absorb about 30% of anthropogenic carbon dioxide (CO2) leading to a re-equilibration of the marine carbonate system and decreasing seawater pH. Today, there is increasing awareness that these changes-summarized by the term ocean acidification (OA)-could differentially affect the competitive ability of marine organisms, thereby provoking a restructuring of marine ecosystems and biogeochemical element cycles. In winter 2013, we deployed ten pelagic mesocosms in the Gullmar Fjord at the Swedish west coast in order to study the effect of OA on plankton ecology and biogeochemistry under close to natural conditions. Five of the ten mesocosms were left unperturbed and served as controls (similar to 380 mu atm pCO(2)), whereas the others were enriched with CO2-saturated water to simulate realistic end-of-the-century carbonate chemistry conditions (mu 760 mu atm pCO(2)). We ran the experiment for 113 days which allowed us to study the influence of high CO2 on an entire winter-to-summer plankton succession and to investigate the potential of some plankton organisms for evolutionary adaptation to OA in their natural environment. This paper is the first in a PLOS collection and provides a detailed overview on the experimental design, important events, and the key complexities of such a "long-term mesocosm" approach. Furthermore, we analyzed whether simulated end-of-the-century carbonate chemistry conditions could lead to a significant restructuring of the plankton community in the course of the succession. At the level of detail analyzed in this overview paper we found that CO2-induced differences in plankton community composition were non-detectable during most of the succession except for a period where a phytoplankton bloom was fueled by remineralized nutrients. These results indicate: (1) Long-term studies with pelagic ecosystems are necessary to uncover OA-sensitive stages of succession. (2) Plankton communities fueled by regenerated nutrients may be more responsive to changing carbonate chemistry than those having access to high inorganic nutrient concentrations and may deserve particular attention in future studies.Peer reviewe
    corecore